「專家系統」與第二波 AI 寒冬(1980s - 1990s)
知識系統及其應用
在1970年代中期的「第一次AI寒冬」之後,AI研究的重點從早期的演算法和神經網路,轉向了邏輯(logical)和知識為基礎(knowledge-based)的方法,而在這個背景下,專家系統(Expert systems)應運而生,主導了整個1980年代的 AI 領域。
專家系統的核心構想是透過模仿人類專家的思考和決策過程來解決複雜問題。它的基礎是一個能夠儲存、管理和運用專業知識的知識系統。這樣的系統有兩個主要的研究方向:「知識表徵」(Knowledge Representation)以及「推理引擎」(Inference Engine)。
專家系統的核心是知識庫(Knowledge Base),它將人類專家的專業知識和經驗轉化為機器可讀的符號形式。這些知識通常以事實 (Facts)和規則 (Rules)兩種主要形式來表示。事實,是關於特定領域的客觀資訊或數據。規則,則以「如果-那麼」(IF-THEN)的邏輯論述表達,例如:「如果病人有發燒且咳嗽,那麼他可能是罹患感冒」。這些規則是從領域專家的經驗中提取的,捕捉了他們解決問題的捷徑方法(heuristics)。
推理引擎則是專家系統的「大腦」,負責運用知識庫中的規則和事實來進行邏輯推理,以解決問題、得出結論。常見的推理策略包括:
向前鏈接 (Forward Chaining):從已知的初始事實出發,逐步應用符合條件的規則,推導出新的事實或最終結論。這通常用於從觀察結果推導原因(例如:從症狀推導疾病)。
向後鏈接 (Backward Chaining):從一個假設的目標或結論出發,尋找支持該目標所需的規則和事實。如果目標無法直接支持,系統會尋找支持其子目標的規則,直到找到已知事實。這通常用於目標導向的問題解決(例如:要達到目標X,需要滿足什麼條件?)。
為了讓非專業使用者也能操作,專家系統通常配備直觀的使用者介面,例如「解釋模組」,它能向使用者說明系統是如何得出特定結論的。這對於建立使用者對系統的信任和理解非常重要。
在1980年代,專家系統因在某些特定領域展現出接近人類專家的表現而受到熱烈追捧,舉例如下:
醫學診斷:最著名的例子是 MYCIN 系統,它是一個向後鏈接的專家系統,旨在診斷血液感染並推薦抗生素治療。儘管 MYCIN 因倫理和法律原因從未大規模實際部署,但它證明了專家系統在複雜醫學診斷方面的潛力。
化學分析:例如 DENDRAL 系統,能夠根據質譜儀的數據來推斷有機化合物的分子結構,被認為是最早的成功AI系統之一。
設備配置與故障診斷:最具商業成功案例的是 DEC 公司(Digital Equipment Corporation)的 R1(後改名為XCON),它用於自動配置大型電腦系統訂單。這個系統為公司節省了數百萬美元,並成為了專家系統商業成功的典範。
金融服務:用於貸款評估、風險分析和股票交易策略建議。
工程設計與規劃:協助設計複雜系統或規劃生產流程。
總而言之,專家系統的興盛代表了人工智慧發展史上的一個重要階段,它將AI的焦點從模擬通用智慧轉向了在特定專業領域中展現「智慧」行為,強調了邏輯和知識表徵的重要性,恰好是對第一波人工智慧寒冬的一種反思。它們在當時的應用雖然集中於狹窄領域,但成功證明了AI技術的商業潛力,為後續更廣泛的AI研究奠定了基礎。
脆弱性以及過大規模的困難
歷史總是不斷重演,專家系統的發展以及應用,在經歷一連串的成功與追捧之後,再度遭遇了嚴重的瓶頸,而這些瓶頸也帶來了人工智慧領域的又一個低谷——第二次AI寒冬(Second AI Winter)。而這次的低谷,一樣也是肇因於對人工智慧領域過度膨脹的期望(hype),最終未能實現。
雖然專家系統在應用上獲得了很多的成功,但這門技術本身就有著固有的挑戰,列舉如下。
首先,是知識獲取瓶頸(Knowledge Acquisition Bottleneck)。建立專家系統的核心是透過人類專家來提取專業知識,並將這些知識轉換成機器可讀的規則形式。這是一個極其耗時、耗力且昂貴的過程。更甚者,人類專家的知識往往是直覺的、難以用語言表達的,導致很難完全且精確地編碼成「如果-那麼」形式的規則。而且,即使知識被成功編碼,也難以確保其完整性和一致性,例如總有規則以外的特例,或是不同專家的知識相衝突。
第二,是脆弱性與缺乏常識(Fragility and Lack of Common Sense)。專家系統的「智慧」被限制在其知識庫所定義的狹窄領域內。一旦遇到知識庫中沒有預設規則或稍有偏差的情境,系統就可能完全失效或給出荒謬的結果。它們無法像人類一樣運用常識來應對預料之外的情況。這種「脆弱性」使得它們在現實世界中,尤其是在需要處理模糊、不確定或跨領域資訊的環境下,表現得不夠穩健。
第三,是規模化的困難(Scalability Issues)。當問題領域變大或複雜度增加時,知識庫中的規則數量會呈指數級增長,導致系統變得龐大、難以管理和維護。而每新增一條規則,可能會意外地與成千上萬條現有規則產生衝突,使得維護和更新極為困難。
最後,是專家系統缺乏學習與適應能力(Lack of Learning and Adaptability)。早期的專家系統是靜態的,它們不具備從經驗中自動學習和改進的能力。它們的知識必須由人類手動輸入和更新,這與機器學習「無需明確編程即可學習和適應」 的核心理念相悖。
由於上述的這些瓶頸,專家系統雖然在某些特定案例中展現了成功,但普遍未能兌現其過度樂觀的承諾,尤其是在通用人工 智慧和大規模應用方面。
在1984年的「人工智慧促進協會(AAAI)」年會上,羅傑·尚克(Roger Schank)和馬文·明斯基(Marvin Minsky)便發出了AI寒冬即將來臨的警告,預測圍繞人工智慧的「膨脹期望」很快會導致投資和研究的崩潰,如同1970年代中期的資金削減。
他們的預測在三年內變為現實。由於未能實現的承諾,大眾對AI的興趣銳減,研究資金也大幅減少,導致了第二次AI寒冬的來臨。1988年,美國政府的戰略計算計劃(Strategic Computing Initiative)決定不再資助 AI 研究,接著專家系統的發展也逐漸到達極限,造成 AI研究進展的全面放緩。
總之,專家系統雖然在AI歷史上佔有一席之地,並在知識表徵和推理方面奠定了基礎,但其內在的脆弱性、知識獲取和維護的困難,以及難以規模化的問題,最終導致其未能滿足社會的過高期望,進而引發了第二次AI寒冬,迫使AI領域進入了又一個反思和調整的時期。
沒有留言:
張貼留言